Definition Was ist der AI Act?

Aktualisiert am 25.06.2025 Von Berk Kutsal und Dipl.-Ing. (FH) Stefan Luber 2 min Lesedauer

Anbieter zum Thema

Die Europäische Union setzt mit dem AI Act (Verordnung EU 2024/1689) neue Maßstäbe im Umgang mit Künstlicher Intelligenz. Anbieter und Anwender müssen jetzt umfassende Pflichten erfüllen – Verstöße können teuer werden. Was der AI Act konkret bedeutet, welche Systeme betroffen sind und welche Fristen gelten, erklärt dieser Beitrag.

Der EU AI Act bringt verbindliche Regeln für den Einsatz von Künstlicher Intelligenz. Der Beitrag zeigt, welche Anwendungen betroffen sind, welche Fristen gelten und welche Pflichten Unternehmen künftig erfüllen müssen.(Bild:  KI-generiert)
Der EU AI Act bringt verbindliche Regeln für den Einsatz von Künstlicher Intelligenz. Der Beitrag zeigt, welche Anwendungen betroffen sind, welche Fristen gelten und welche Pflichten Unternehmen künftig erfüllen müssen.
(Bild: KI-generiert)

Künstliche Intelligenz (KI) ist längst keine Science-Fiction mehr, sondern Alltag in Unternehmen und Gesellschaft. Doch neben großen Chancen birgt die Technologie auch erhebliche Risiken für Grundrechte und Sicherheit. Die Europäische Union reagiert darauf mit dem AI Act (Verordnung EU 2024/1689), der am 13. Juni 2024 verabschiedet wurde und seit dem 1. August 2024 offiziell in Kraft ist. Er setzt erstmals verbindliche Regeln für den Einsatz von KI – europaweit.

KI zwischen Innovation und Risiko

Der AI Act verfolgt einen risikobasierten Ansatz, der KI-Systeme je nach Anwendungsszenario unterschiedlich behandelt. Ziel ist es, Innovationen nicht zu behindern, gleichzeitig aber Grundrechte wie Datenschutz, Privatsphäre und Diskriminierungsfreiheit zu schützen. Unternehmen und Anwender müssen die neuen Vorgaben konsequent umsetzen, um hohe Strafen zu vermeiden.

Zeitplan und Übergangsfristen

Die Umsetzung erfolgt in mehreren Phasen:

  • Verbot unannehmbarer Risiken: Seit dem 2. Februar 2025 verboten, darunter Systeme zur Echtzeit-Gesichtserkennung in öffentlichen Räumen oder Social-Scoring-Mechanismen.
  • Transparenzpflichten für General-Purpose-AI (GPAI): Modelle wie GPT unterliegen ab dem 1. August 2025 spezifischen Transparenz- und Dokumentationspflichten.
  • Compliance für Hochrisiko-KI: Ab dem 1. August 2027 müssen Unternehmen umfangreiche Anforderungen wie Risikomanagement, Datenqualität, und CE-Kennzeichnung erfüllen.

Risikobasierte Systematik des AI Acts

Der AI Act basiert auf einer risikoorientierten Einteilung:

  • Unannehmbares Risiko: Komplett verbotene Systeme, etwa Echtzeit-Biometrie im öffentlichen Raum.
  • Hohes Risiko: Systeme in sensiblen Bereichen wie Gesundheitswesen, Justiz oder Personalverwaltung mit strikten Anforderungen zur Risikominderung und menschlichen Überwachung.
  • Begrenztes Risiko: Kennzeichnungspflichten für KI-Anwendungen wie Chatbots und Deepfakes.
  • Minimales Risiko: Keine spezifischen Vorschriften.

General-Purpose AI, insbesondere große Sprachmodelle und Basisplattformen, erhalten zusätzliche Aufmerksamkeit, darunter verpflichtende Risikobewertungen und umfangreiche Transparenzregelungen.

Neue Unternehmenspflichten

Mit Inkrafttreten des AI Acts stehen Unternehmen vor verbindlichen Vorgaben. Dazu zählen:

  • Einführung umfassender interner Kontrollsysteme.
  • Dokumentationspflichten über Entwicklungsprozesse und eingesetzte Trainingsdaten.
  • Schulungen für Mitarbeiter, um eine rechtskonforme Nutzung sicherzustellen.
  • Sicherstellung einer menschlichen Überwachung für kritische Anwendungen.

Sanktionen und Governance

Verstöße gegen den AI Act können empfindliche Strafen nach sich ziehen: Unternehmen drohen Bußgelder von bis zu 35 Millionen Euro oder sieben Prozent des globalen Jahresumsatzes, je nachdem, welcher Betrag höher ist. Zur Durchsetzung wurde ein Europäisches KI-Büro etabliert, unterstützt durch nationale Überwachungsbehörden.

Chancen und Herausforderungen des AI Acts

Der AI Act wird international als wegweisendes Regelwerk betrachtet, das globale Standards setzen könnte. Es verspricht größere Transparenz, Datenschutz und Verbraucherschutz. Allerdings bestehen auch Bedenken hinsichtlich möglicher Innovationshemmnisse, insbesondere für kleinere Unternehmen, aufgrund der hohen Compliance-Anforderungen.

Kritisiert wird außerdem, dass das Verbot von biometrischen Überwachungssystemen nicht weit genug gehe und dass Open-Source-Projekte teilweise erleichterte Vorgaben genießen, was Wettbewerbsverzerrungen erzeugen könnte.

Zusammenhang mit DSGVO und Explainable AI

Der AI Act ergänzt bestehende Datenschutzregelungen der DSGVO, insbesondere durch zusätzliche Anforderungen an Transparenz und Nachvollziehbarkeit algorithmischer Entscheidungen. Explainable AI (XAI) könnte hierbei eine entscheidende Rolle spielen, indem es Unternehmen ermöglicht, ihre KI-Anwendungen transparenter und nachvollziehbarer zu gestalten und somit rechtliche Anforderungen leichter zu erfüllen.

(ID:49778187)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Big Data, Analytics & AI

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung